Anthropic se enfrenta a OpenAI al rechazar la ley que perdonaría los desastres causados por la IA
por Edgar Otero 1El debate sobre quién asume la culpa cuando la tecnología falla ha abierto una enorme brecha en la industria de la IA. Anthropic ha manifestado su oposición frontal a una propuesta de ley en Illinois, conocida como SB 3444, que busca proteger legalmente a los desarrolladores de inteligencia artificial. Esta normativa, que cuenta con el apoyo expreso de OpenAI, eximiría a los laboratorios de responsabilidades financieras o penales si sus sistemas se utilizan para causar muertes masivas o daños superiores a los mil millones de dólares.
La base de esta legislación establece un salvoconducto claro para las grandes corporaciones y los laboratorios de IA. Si alguien con malas intenciones utiliza un modelo avanzado para diseñar un arma biológica o provocar un colapso crítico, el desarrollador quedaría libre de culpa si publicó previamente un marco de seguridad. Desde OpenAI defienden que esta medida evita una fragmentación de normas estatales y fomenta la innovación estadounidense, mientras que los portavoces de Anthropic consideran que es una carta blanca inaceptable que elimina la rendición de cuentas.
El choque ilustra dos formas opuestas de entender la regulación tecnológica actual. Mientras el creador de ChatGPT busca reducir la fricción legal alineándose indirectamente con posturas que priorizan el crecimiento sin frenos, la empresa liderada por Dario Amodei exige que los desarrolladores asuman responsabilidades reales. Para los expertos en políticas públicas, eliminar la responsabilidad civil en casos de daños severos destruiría el incentivo más poderoso que tienen las compañías para diseñar sistemas seguros desde su concepción.
El dominio del relato corporativo y los ecos del Pentágono
Esta maniobra legislativa no se puede entender sin analizar la estrategia de imagen que ambas empresas están desplegando. Anthropic ha logrado posicionarse frente a la opinión pública y los reguladores como el laboratorio que antepone la ética al negocio. Es innegable que esta postura incluye un fuerte componente de mercadotecnia para controlar su propia narrativa corporativa. Sin embargo, no se puede negar que, si este enfoque sirve para mejorar las prácticas del sector, el beneficio para el usuario final es real.
Este contraste de filosofías ya se evidenció recientemente en el ámbito de los contratos militares. Hace apenas unas semanas, su negativa a relajar las restricciones sobre vigilancia ciudadana provocó un buen lío, hasta el punto de que la empresa anunció que llevaría al Pentágono a los tribunales por designarla como un riesgo para la cadena de suministro. Inmediatamente después, OpenAI aprovechó el vacío normativo de su rival y firmó un acuerdo para cubrir directamente las necesidades del Departamento de Defensa de Estados Unidos.
Las dudas sobre el liderazgo en la industria también juegan un papel crucial en cómo los legisladores perciben a estas entidades. La imagen corporativa de OpenAI arrastra todavía las consecuencias de tensiones del pasado. Recientemente, esta situación se agravó cuando Sam Altman respondió a un duro reportaje de The New Yorker tras un ataque a su vivienda que reabrió la crisis de confianza en OpenAI. Esa falta de fiabilidad percibida por algunos actores clave dificulta que los políticos confíen en una autorregulación basada en buenas intenciones.
Un escudo vital ante posibles catástrofes y riesgos existenciales
El motivo de fondo por el que OpenAI presiona a favor de esta inmunidad radica en la propia naturaleza de la inteligencia artificial. Aunque es una herramienta con un potencial extraordinario, su uso irresponsable ya está generando problemas a pequeña escala, como usuarios que la emplean como terapeuta o asesor médico sin supervisión profesional. En un sentido más amplio, el temor es mucho mayor, ya que los expertos advierten de que estos sistemas podrían facilitar desde ciberataques críticos hasta catástrofes biológicas.
Para los grandes laboratorios, enfrentarse a las consecuencias judiciales de un desastre épico representa una amenaza letal para su supervivencia. Si un tribunal dictaminara que una de estas compañías es responsable de daños valorados en miles de millones de dólares, la quiebra sería inmediata y los inversores huirían en masa. Este es el verdadero riesgo existencial corporativo que intentan mitigar con leyes como la de Illinois, asegurándose de que la culpa recaiga siempre en el usuario final.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!




